home *** CD-ROM | disk | FTP | other *** search
/ SGI Developer Toolbox 6.1 / SGI Developer Toolbox 6.1 - Disc 4.iso / documents / RFC / rfc1222.txt < prev    next >
Text File  |  1994-08-01  |  15KB  |  339 lines

  1.  
  2.  
  3.  
  4.  
  5.  
  6.  
  7. Network Working Group                                         H-W. Braun
  8. Request for Comments: 1222                San Diego Supercomputer Center
  9.                                                               Y. Rekhter
  10.                                          IBM T.J. Watson Research Center
  11.                                                                 May 1991
  12.  
  13.  
  14.                Advancing the NSFNET Routing Architecture
  15.  
  16. Status of this Memo
  17.  
  18.    This RFC suggests improvements in the NSFNET routing architecture to
  19.    accommodate a more flexible interface to the Backbone clients.  This
  20.    memo provides information for the Internet community.  It does not
  21.    specify an Internet standard.  Distribution of this memo is
  22.    unlimited.
  23.  
  24. Introduction
  25.  
  26.    This memo describes the history of NSFNET Backbone routing and
  27.    outlines two suggested phases for further evolution of the Backbone's
  28.    routing interface.  The intent is to provide a more flexible
  29.    interface for NSFNET Backbone service subscribers, by providing an
  30.    attachment option that is simpler and lower-cost than the current
  31.    one.
  32.  
  33. Acknowledgements
  34.  
  35.    The authors would like to thank Scott Brim (Cornell University),
  36.    Bilal Chinoy (Merit), Elise Gerich (Merit), Paul Love (SDSC), Steve
  37.    Wolff (NSF), Bob Braden (ISI), and Joyce K. Reynolds (ISI) for their
  38.    review and constructive comments.
  39.  
  40. 1. NSFNET Phase 1 Routing Architecture
  41.  
  42.    In the first phase of the NSFNET Backbone, a 56Kbps infrastructure
  43.    utilized routers based on Fuzzball software [2].  The Phase 1
  44.    Backbone used the Hello Protocol for interior routing.  At the
  45.    periphery of the Backbone, the client networks were typically
  46.    connected by using a gatedaemon ("gated") interface to translate
  47.    between the Backbone's Hello Protocol and the interior gateway
  48.    protocol (IGP) of the mid-level network.
  49.  
  50.    Mid-level networks primarily used the Routing Information Protocol
  51.    (RIP) [3] for their IGP.  The gatedaemon system acted as an interface
  52.    between the Hello and RIP environments.  The overall appearance was
  53.    that the Backbone, mid-level networks, and the campus networks formed
  54.    a single routing system in which information was freely exchanged.
  55.  
  56.  
  57.  
  58. Braun & Rekhter                                                 [Page 1]
  59.  
  60. RFC 1222       Advancing the NSFNET Routing Architecture        May 1991
  61.  
  62.  
  63.    Network metrics were translated among the three network levels
  64.    (backbone, mid-level networks, and campuses).
  65.  
  66.    With the development of the gatedaemon, sites were able to introduce
  67.    filtering based on IP network numbers.  This process was controlled
  68.    by the staff at each individual site.
  69.  
  70.    Once specific network routes were learned, the infrastructure
  71.    forwarded metric changes throughout the interconnected network. The
  72.    end-result was that a metric fluctuation on one end of the
  73.    interconnected network could permeate all the way to the other end,
  74.    crossing multiple network administrations.  The frequency of metric
  75.    fluctuations within the Backbone itself was further increased when
  76.    event-driven updates (e.g., metric changes) were introduced.  Later,
  77.    damping of the event driven updates lessened their frequency, but the
  78.    overall routing environment still appeared to be quite unstable.
  79.  
  80.    Given that only limited tools and protocols were available to
  81.    engineer the flow of dynamic routing information, it was fairly easy
  82.    for routing loops to form.  This was amplified as the topology became
  83.    more fully connected without insulation of routing components from
  84.    each other.
  85.  
  86.    All six nodes of the Phase 1 Backbone were located at client sites,
  87.    specifically NSF funded supercomputer centers.
  88.  
  89.  
  90. 2. NSFNET Phase 2 Routing Architecture
  91.  
  92.    The routing architecture for the second phase of the NSFNET Backbone,
  93.    implemented on T1 (1.5Mbps) lines, focused on the lessons learned in
  94.    the first NSFNET phase.  This resulted in a strong decoupling of the
  95.    IGP environments of the backbone network and its attached clients
  96.    [5].  Specifically, each of the administrative entities was able to
  97.    use its own IGP in any way appropriate for the specific network.  The
  98.    interface between the backbone network and its attached client was
  99.    built by means of exterior routing, initially via the Exterior
  100.    Gateway Protocol (EGP) [1,4].
  101.  
  102.    EGP improved provided routing isolation in two ways.  First, EGP
  103.    signals only up/down transitions for individual network numbers, not
  104.    the fluctuations of metrics (with the exception of metric acceptance
  105.    of local relevance to a single Nodal Switching System (NSS) only for
  106.    inbound routing information, in the case of multiple EGP peers at a
  107.    NSS).  Second, it allowed engineering of the dynamic distribution of
  108.    routing information.  That is, primary, secondary, etc., paths can be
  109.    determined, as long as dynamic externally learned routing information
  110.    is available.  This allows creation of a spanning tree routing
  111.  
  112.  
  113.  
  114. Braun & Rekhter                                                 [Page 2]
  115.  
  116. RFC 1222       Advancing the NSFNET Routing Architecture        May 1991
  117.  
  118.  
  119.    topology, satisfying the constraints of EGP.
  120.  
  121.    The pre-engineering of routes is accomplished by means of a routing
  122.    configuration database that is centrally controlled and created, with
  123.    a subsequent distribution of individual configuration information to
  124.    all the NSFNET Backbone nodes.  A computer controlled central system
  125.    ensures the correctness of the database prior to its distribution to
  126.    the nodes.
  127.  
  128.    All nodes of the 1.5Mbps NSFNET Backbone (currently fourteen) are
  129.    located at client sites, such as NSF funded supercomputer centers and
  130.    mid-level network attachment points.
  131.  
  132. 3. T3 Phase of the NSFNET Backbone
  133.  
  134.    The T3 (45Mbps) phase of the NSFNET Backbone is implemented by means
  135.    of a new architectural model, in which the principal communication
  136.    nodes (core nodes) are co-located with major phone company switching
  137.    facilities.  Those co-located nodes then form a two-dimensional
  138.    networking infrastructure "cloud".  Individual sites are connected
  139.    via exterior nodes (E-NSS) and typically have a single T3 access line
  140.    to a core node (C-NSS).  That is, an exterior node is physically at
  141.    the service subscriber site.
  142.  
  143.    With respect to routing, this structure is invisible to client sites,
  144.    as the routing interface uses the same techniques as the T1 NSFNET
  145.    Backbone.  The two backbones will remain independent infrastructures,
  146.    overlaying each other and interconnected by exterior routing, and the
  147.    T1 Backbone will eventually be phased out as a separate network.
  148.  
  149. 4. A Near-term Routing Alternative
  150.  
  151.    The experience with the T1/T3 NSFNET routing demonstrated clear
  152.    advantages of this routing architecture in which the whole
  153.    infrastructure is strongly compartmentalized.  Previous experience
  154.    also showed that the architecture imposes certain obligations upon
  155.    the attached client networks.  Among them is the requirement that a
  156.    service subscriber must deploy its own routing protocol peer,
  157.    participating in the IGP of the service subscriber and connected via
  158.    a common subnet to the subscriber-site NSFNET node.  The router and
  159.    the NSFNET Backbone exchange routing information via an EGP or BGP
  160.    [7] session.
  161.  
  162.    The drawbacks imposed by this requirement will become more obvious
  163.    with the transition to the new architecture that is employed by the
  164.    T3 phase of the NSFNET Backbone.  This will allow rapid expansion to
  165.    many and smaller sites for which a very simple routing interface may
  166.    be needed.
  167.  
  168.  
  169.  
  170. Braun & Rekhter                                                 [Page 3]
  171.  
  172. RFC 1222       Advancing the NSFNET Routing Architecture        May 1991
  173.  
  174.  
  175.    We strongly believe that separating the routing of the service
  176.    subscriber from the NSFNET Backbone routing via some kind of EGP is
  177.    the correct routing architecture.  However, it should not be
  178.    necessary to translate this architecture into a requirement for each
  179.    service subscriber to install and maintain additional equipment, or
  180.    for the subscriber to deal with more complicated routing
  181.    environments.  In other words, while maintaining that the concept of
  182.    routing isolation is correct, we view the present implementation of
  183.    the concept as more restrictive than necessary.
  184.  
  185.    An alternative implementation of this concept may be realized by
  186.    separating the requirement for an EGP/BGP session, as the mechanism
  187.    for exchanging routing information between the service subscriber
  188.    network and the backbone, from the actual equipment that has to be
  189.    deployed and maintained to support such a requirement.  The only
  190.    essential requirement for routing isolation is the presence of two
  191.    logical routing entities.  The first logical entity participates in
  192.    the service subscriber's IGP, the second logical entity participates
  193.    in the NSFNET Backbone IGP, and the two logical entities exchange
  194.    information with each other by means of inter-domain mechanisms.  We
  195.    suggest that these two logical entities could exist within a single
  196.    physical entity.
  197.  
  198.    In terms of implementation, this would be no different from a
  199.    gatedaemon system interfacing with the previous 56Kbps NSFNET
  200.    Backbone from the regional clients, except that we want to continue
  201.    the strong routing and administrative control that decouple the two
  202.    IGP domains.  Retaining an inter-domain mechanism (e.g., BGP) to
  203.    connect the two IGP domains within the single physical entity allows
  204.    the use of a well defined and understood interface.  At the same
  205.    time, care must be taken in the implementation that the two daemons
  206.    will not simultaneously interact with the system kernel in unwanted
  207.    ways.
  208.  
  209.    The possibility of interfacing two IGP domains within a single router
  210.    has also been noted in [8].  For the NSFNET Backbone case, we propose
  211.    in addition to retain strong firewalls between the IGP domains.  The
  212.    IGP information would need to be tagged with exterior domain
  213.    information at its entry into the other IGP.  It would also be
  214.    important to allow distributed control of the configuration.  The
  215.    NSFNET Backbone organization and the provider of the attached client
  216.    network are each responsible for the integrity of their own routing
  217.    information.
  218.  
  219.    An example implementation might be a single routing engine that
  220.    executed two instances of routing daemons.  In the NSFNET Backbone
  221.    case, one of the daemons would participate in the service
  222.    subscriber's IGP, and the other would participate in the NSFNET
  223.  
  224.  
  225.  
  226. Braun & Rekhter                                                 [Page 4]
  227.  
  228. RFC 1222       Advancing the NSFNET Routing Architecture        May 1991
  229.  
  230.  
  231.    Backbone IGP.  These two instances could converse with each other by
  232.    running EGP/BGP via a local loopback mechanism or internal IPC.  In
  233.    the NSFNET Backbone implementation, the NSFNET T1 E-PSP or T3 E-NSS
  234.    are UNIX machines, so the local loopback interface (lo0) of the UNIX
  235.    operating system may be used.
  236.  
  237.    Putting both entities into the same physical machine means that the
  238.    E-PSP/E-NSS would participate in the regional IGP on its exterior
  239.    interface.  We would still envision the Ethernet attachment to be the
  240.    demarcation point for the administrative control and operational
  241.    responsibility.  However, the regional client could provide the
  242.    configuration information for the routing daemon that interfaced to
  243.    the regional IGP, allowing the regional to continue to exercise
  244.    control over the introduction of routing information into its IGP.
  245.  
  246. 5. Long-Term Alternatives
  247.  
  248.    As technology employed by the NSFNET Backbone evolves, one may
  249.    envision the demarcation line between the Backbone and the service
  250.    subscribers moving in the direction of the "C-NSS cloud", so that the
  251.    NSFNET IGP will be confined to the C-NSS, while the E-NSS will be a
  252.    full participant in the IGP of the service subscriber.
  253.  
  254.    Clearly, one of the major prerequisites for such an evolution is the
  255.    ability for operational management of the physical medium connecting
  256.    a C-NSS with an E-NSS by two different administrative entities (i.e.,
  257.    the NSFNET Backbone provider as well as the service subscriber).  It
  258.    will also have to be manageable enough to be comparable in ease of
  259.    use to an Ethernet interface, as a well-defined demarcation point.
  260.  
  261.    The evolution of the Point-to-Point Protocol, as well as a
  262.    significantly enhanced capability for managing serial lines via
  263.    standard network management protocols, will clearly help.  This may
  264.    not be the complete answer, as a variety of equipment is used on
  265.    serial lines, making it difficult to isolate a hardware problem.
  266.    Similar issues may arise for future demarcation interfaces to
  267.    Internet infrastructure (e.g., SMDS interfaces).
  268.  
  269.    In summary, there is an opportunity to simplify the management,
  270.    administration, and exchange of routing information by collapsing the
  271.    number of physical entities involved.
  272.  
  273. 6. References
  274.  
  275.    [1] Mills, D., "Exterior Gateway Protocol Formal Specification", RFC
  276.        904, BBN, April 1984.
  277.  
  278.    [2] Mills, D., and H-W. Braun, "The NSFNET Backbone Network", SIGCOMM
  279.  
  280.  
  281.  
  282. Braun & Rekhter                                                 [Page 5]
  283.  
  284. RFC 1222       Advancing the NSFNET Routing Architecture        May 1991
  285.  
  286.  
  287.        1987, August 1987.
  288.  
  289.    [3] Hedrick, C., "Routing Information Protocol", RFC 1058, Rutgers
  290.        University, June 1988.
  291.  
  292.    [4] Rekhter, Y., "EGP and Policy Based Routing in the New NSFNET
  293.        Backbone", RFC 1092, IBM T.J. Watson Research Center, February
  294.        1989.
  295.  
  296.    [5] Braun, H-W., "The NSFNET Routing Architecture", RFC 1093,
  297.        Merit/NSFNET, February 1989.
  298.  
  299.    [6] Braun, H-W., "Models of Policy Based Routing", RFC 1104,
  300.        Merit/NSFNET, June 1989.
  301.  
  302.    [7] Lougheed, K., and Y. Rekhter, "A Border Gateway Protocol (BGP)",
  303.        RFC 1163, cisco Systems, IBM T.J. Watson Research Center, June
  304.        1990.
  305.  
  306.    [8] Almquist, P., "Requirements for Internet IP Routers", to be
  307.        published as a RFC.
  308.  
  309. 7.  Security Considerations
  310.  
  311.    Security issues are not discussed in this memo.
  312.  
  313. 8. Authors' Addresses
  314.  
  315.    Hans-Werner Braun
  316.    San Diego Supercomputer Center
  317.    P.O. Box 85608
  318.    La Jolla, CA 92186-9784
  319.  
  320.    Phone: (619) 534-5035
  321.    Fax:   (619) 534-5113
  322.  
  323.    EMail: HWB@SDSC.EDU
  324.  
  325.    Yakov Rekhter
  326.    T.J. Watson Research Center
  327.    IBM Corporation
  328.    P.O. Box 218
  329.    Yorktown Heights, NY  10598
  330.  
  331.    Phone: (914) 945-3896
  332.  
  333.    EMail: Yakov@Watson.IBM.COM
  334.  
  335.  
  336.  
  337.  
  338. Braun & Rekhter                                                 [Page 6]
  339.